AI资讯新闻榜单内容搜索- LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索:  LLM
一文搞懂SFT、RLHF、DPO、IFT

一文搞懂SFT、RLHF、DPO、IFT

一文搞懂SFT、RLHF、DPO、IFT

SFT、RLHF 和 DPO 都是先估计 LLMs 本身的偏好,再与人类的偏好进行对齐

来自主题: AI资讯
5678 点击    2024-08-22 17:04
做了7年AI陪伴,Replika创始人如何看待这个赛道的未来?

做了7年AI陪伴,Replika创始人如何看待这个赛道的未来?

做了7年AI陪伴,Replika创始人如何看待这个赛道的未来?

Replika 是一款虚拟陪伴(AI 伴侣)应用,成立于 2017 年,在 LLM 技术爆发之前。

来自主题: AI资讯
10841 点击    2024-08-20 10:35
给RAG系统做一次全面「体检」,亚马逊开源RAGChecker诊断工具

给RAG系统做一次全面「体检」,亚马逊开源RAGChecker诊断工具

给RAG系统做一次全面「体检」,亚马逊开源RAGChecker诊断工具

检索增强生成(Retrieval-Augmented Generation, RAG)技术正在彻底革新 AI 应用领域,通过将外部知识库和 LLM 内部知识的无缝整合,大幅提升了 AI 系统的准确性和可靠性。然而,随着 RAG 系统在各行各业的广泛部署,其评估和优化面临着重大挑战

来自主题: AI资讯
4354 点击    2024-08-18 17:10
ACL 2024 Oral|我们离真正的多模态思维链推理还有多远?

ACL 2024 Oral|我们离真正的多模态思维链推理还有多远?

ACL 2024 Oral|我们离真正的多模态思维链推理还有多远?

在过去的几年中,大型语言模型(Large Language Models, LLMs)在自然语言处理(NLP)领域取得了突破性的进展。这些模型不仅能够理解复杂的语境,还能够生成连贯且逻辑严谨的文本。

来自主题: AI技术研报
8753 点击    2024-08-11 13:25
错误率从10%降至0.01%,领英全面分享LLM应用落地经验

错误率从10%降至0.01%,领英全面分享LLM应用落地经验

错误率从10%降至0.01%,领英全面分享LLM应用落地经验

随着大型语言模型(LLM)技术日渐成熟,各行各业加快了 LLM 应用落地的步伐。为了改进 LLM 的实际应用效果,业界做出了诸多努力。

来自主题: AI资讯
6296 点击    2024-08-07 11:24
ACL 2024 Oral | 大模型也会被忽悠?揭秘AI的信念之旅

ACL 2024 Oral | 大模型也会被忽悠?揭秘AI的信念之旅

ACL 2024 Oral | 大模型也会被忽悠?揭秘AI的信念之旅

地球是平的吗? 当然不是。自古希腊数学家毕达哥拉斯首次提出地圆说以来,现代科学技术已经证明了地球是圆形这一事实。 但是,你有没有想过,如果 AI 被误导性信息 “忽悠” 了,会发生什么? 来自清华、上海交大、斯坦福和南洋理工的研究人员在最新的论文中深入探索 LLMs 在虚假信息干扰情况下的表现,他们发现大语言模型在误导信息反复劝说下,非常自信地做出「地球是平的」这一判断。

来自主题: AI资讯
2752 点击    2024-08-07 11:20
早期项目|硅谷初创公司「Aizip」创建小语言模型Gizmo,应用于边缘市场

早期项目|硅谷初创公司「Aizip」创建小语言模型Gizmo,应用于边缘市场

早期项目|硅谷初创公司「Aizip」创建小语言模型Gizmo,应用于边缘市场

从前两年的百模大战到大语言模型 LLM(Large Language Model)的逐步落地应用,端侧AI始终是人工智能技术发展中至关重要的一环。 所谓的端侧AI,即用户在使用过程中不依赖云服务器,直接在终端设备本地使用AI服务。相比于ChatGPT4.0和最新推出的Llama3.1等依赖于云端接口的主流大语言模型,设备端边缘应用的紧凑模型有较强的私密性,也具有个性化操作和节省成本等诸多优势。

来自主题: AI资讯
7304 点击    2024-08-05 15:45
首届大模型顶会COLM 高分论文:偏好搜索算法PairS,让大模型进行文本评估更高效

首届大模型顶会COLM 高分论文:偏好搜索算法PairS,让大模型进行文本评估更高效

首届大模型顶会COLM 高分论文:偏好搜索算法PairS,让大模型进行文本评估更高效

大模型展现出了卓越的指令跟从和任务泛化的能力,这种独特的能力源自 LLMs 在训练中使用了指令跟随数据以及人类反馈强化学习(RLHF)。

来自主题: AI技术研报
9576 点击    2024-08-03 14:29
「越狱」事件频发,如何教会大模型「迷途知返」而不是「将错就错」?

「越狱」事件频发,如何教会大模型「迷途知返」而不是「将错就错」?

「越狱」事件频发,如何教会大模型「迷途知返」而不是「将错就错」?

大型语言模型(LLM)展现出了令人印象深刻的智能水平。因此,确保其安全性显得至关重要。已有研究提出了各种策略,以使 LLM 与人类伦理道德对齐。然而,当前的先进模型例如 GPT-4 和 LLaMA3-70b-Instruct 仍然容易受到越狱攻击,并被用于恶意用途。

来自主题: AI技术研报
8357 点击    2024-07-30 16:55